Autopilotul Tesla are probleme grave: de ce nu este sigur pentru drumurile publice
Cea mai recentă versiune a Beta Full Self-Driving (FSD) de la Tesla are o problemă: nu pare să observe obiecte de dimensiunea unui copil în calea sa, potrivit unui grup de campanie.
În testele efectuate de The Dawn Project folosind o Tesla Model 3 echipată cu versiunea FSD 10.12.2 (cea mai recentă, lansată la 1 iunie), vehiculului i s-au dat 110 metri de drum drept între două rânduri de conuri cu un copil- manechin de dimensiuni la capăt.
Grupul spune că „mâinile șoferului de testare nu au fost niciodată pe volan”. În mod esențial, Tesla spune că nici măcar FSD nu este un sistem complet autonom: este un program super-cruise-control cu diverse caracteristici, cum ar fi schimbarea automată a benzii și direcția automată. Ar trebui să ții mâinile pe volan și să poți prelua controlul în orice moment.
Călătorind cu aproximativ 40 km/h, Tesla a lovit manechinul de fiecare dată.
Dintre rezultate, Proiectul Dawn a spus că o distanță de 100 de metri este mai mult decât suficientă pentru ca un șofer uman să observe un copil, afirmând: „Software-ul Tesla Full Self-Driving eșuează în mod repetat acest test simplu și critic de siguranță, cu rezultate potențial mortale”.
Cel mai prost software
„Elon Musk spune că software-ul complet de auto-conducere al Tesla este „uimitor”. Nu este… Acesta este cel mai prost software comercial pe care l-am văzut vreodată”, a spus fondatorul proiectului, Dan O’Dowd, într-un videoclip pe care l-a postat pe Twitter împreună cu rezultatele.
Scopul declarat al Proiectului Dawn este „de a face computerele sigure pentru umanitate”. Tesla FSD este prima campanie a proiectului.
Este demn de remarcat faptul că testele The Dawn Project pentru FSD 10.12.2, care au avut loc pe 21 iunie în Rosamond, CA, au constat din doar trei runde. Este o dimensiune mică a eșantionului, dar având în vedere alte teste și statistici Tesla, nu este un rezultat neașteptat.
Defecțiunile din Autopilot – suita de software Tesla care include Autopilot obișnuit, precum și FSD – au fost citate ca fiind un factor în mai multe accidente mortale care au implicat atât șoferii, cât și pietonii de-a lungul anilor. Anul trecut, Tesla a anulat lansările de software FSD după ce au fost descoperite erori de software care au cauzat probleme cu virajele la stânga, ceva la care Tesla încă lucrează.